¿Puede un vehículo autónomo ser moral, actuar como los seres humanos, o tomar una decision ética como los seres humanos?
Un nuevo estudio demuestra que las decisiones éticas pueden ser implementadas en máquinas. Tiene fuertes implicaciones para manejar los dilemas morales que los automóviles autónomos puedan enfrentar en el camino.
Contrario al pensamiento anterior, un nuevo estudio innovador ha encontrado por primera vez que la moralidad humana puede ser modelada, lo que significa que las decisiones morales basadas en la máquina son, en principio, posibles.
Leon Sütfeld, primer autor del estudio, dice que hasta ahora se ha asumido que las decisiones morales son fuertemente dependientes del contexto y por lo tanto no pueden ser modeladas o descritas algorítmicamente: "Pero encontramos todo lo contrario: el comportamiento humano en situaciones de dilema puede ser modelado por un modelo de vida basado en el valor que es atribuido por el participante a todo objeto humano, animal o inanimado ". Esto implica que el comportamiento moral humano puede ser bien descrito por algoritmos que podrían ser utilizados por las máquinas también.
Los hallazgos del estudio tienen importantes implicaciones en el debate sobre el comportamiento de los automóviles autodirigidos y otras máquinas, como en situaciones inevitables. Por ejemplo, una nueva iniciativa del Ministerio Federal de Transporte e Infraestructuras Digitales (BMVI) ha definido 20 principios éticos relacionados con los vehículos autodirigidos.
El profesor Gordon Pipa, autor principal del estudio, dice que dado que ahora parece posible que las máquinas puedan ser programadas para tomar decisiones morales humanas, es crucial que la sociedad emprenda un debate serio y urgente, "necesitamos preguntar si los sistemas autónomos deben adoptar juicios morales, en caso afirmativo, si imitan la conducta moral imitando las decisiones humanas, si se comportan a lo largo de las teorías éticas y, en caso afirmativo, cuáles y críticamente, si las cosas van mal ¿quién o qué?
"Ahora que sabemos cómo implementar las decisiones éticas humanas en las máquinas, como sociedad, todavía nos queda un doble dilema", explica el Profesor Peter König, autor principal del artículo. "En primer lugar, tenemos que decidir si los valores morales deben ser incluidos en las directrices para el comportamiento de la máquina y en segundo lugar, si lo son, ¿Las máquinas deben actuar como seres humanos?".
Los autores del estudio dicen que los automóviles autónomos son sólo el comienzo como robots en los hospitales y otros sistemas de inteligencia artificial. Se convierten cada vez más comunes. Advierten que estamos ahora al comienzo de una nueva época con la necesidad de reglas claras, de lo contrario las máquinas empezarán a marcar decisiones sin nosotros.